#AI 算力
CPO,過熱了?
在AI基礎設施被資本與產業合力推向發展高潮的當下,凡是與“光”“互聯”“頻寬”“功耗”掛鉤的技術方向,都極易被貼上“下一代核心技術”的標籤,迅速成為市場追逐的焦點,其中共封裝光學(CPO),正是這股熱潮中最具代表性的存在。然而,就在行業對 CPO 的討論熱度節節攀升之際,博通首席執行長陳福陽(Hock Tan)卻在2025 財年第四季度財報電話會議上,為這股狂熱情緒澆下一盆冷水。“矽光子學在短期內不會在資料中心發揮實質性作用。”陳福陽並未簡單粗暴地否定這項先進技術地未來,他在後續問答中解釋,矽光子、CPO 絕非對現有技術的“跳躍式”替代方案,而是需要在既有互聯技術路徑的潛力被徹底榨乾後,才會被產業被動啟用的終極選擇。他將整個互聯技術的演進邏輯清晰梳理:首先是機架級銅互聯的規模化落地,隨後是可插拔光模組(Pluggable Optics)的持續迭代升級,唯有當這兩條技術路徑均觸及物理性能與經濟成本的雙重極限,矽光子 / CPO 才會真正成為行業剛需。“這一天一定會到來,但不是現在。”當然,給CPO降溫的並非只有博通一家。在最新的巴克萊第 23 屆全球技術大會上,包括Arista、Credo、Marvell、Astera、Lumentum在內的一眾行業頭部企業,均傳遞出了相似的聲音。從“算力不足”到“互聯焦慮”事實上,過去幾年裡,AI行業已經逐漸走出了早“單純堆算力的階段。即便是輝達這樣的算力王者,也在有意淡化對單點計算性能的強調,轉而反覆突出互聯、網路以及系統級架構的重要性——因為在大模型時代,真正決定上限的,早已不只是晶片本身。隨著模型參數規模與叢集規模同步呈指數級擴張,AI叢集的核心瓶頸也開始悄然從計算能力轉向互聯能力。此時考驗行業巨頭的,已不再只是能否豪擲重金採購更多GPU,而是如何在超大規模系統中實現高效互聯:通訊效率是否足夠高、延遲是否可控、系統能否穩定協同運行,正逐步成為決定算力能否“用得起來”的關鍵因素。行業顯然早已預見到這一變化。博通首席執行長陳福陽在財報電話會議中透露,其客戶正在規劃和部署規模超過10萬顆GPU的超大型AI叢集;而Arista在技術大會上進一步指出,行業內部討論的目標,已經指向百萬GPU等級的叢集架構。多位產業領袖的判斷趨於一致:當AI叢集規模從數千顆GPU擴展到數十萬、乃至百萬等級時,網路不再只是“頻寬夠不夠”的問題,而是演變為一整套系統性挑戰——包括互聯可靠性、功耗上限、可維護性以及整體部署節奏。正因如此,過去一年中,巨頭們反覆強調的關鍵詞也發生了明顯變化:Scale-Out(橫向擴展)、Scale-Up(縱向擴展)、Scale-Across(跨域擴展),以及功耗牆、鏈路可靠性、系統級協同設計……這些看似偏“工程化”的概念,實則標誌著行業對AI基礎設施瓶頸認知的一次深刻轉向——AI的競爭重心,正在從算力本身,全面邁向互聯與系統能力。橫向擴展用不到首先來說橫向擴展(Scale-Out),這一概念往往稱為叢集系統,通過增加獨立的伺服器來分散工作負載,從而提高計算容量,類似於輝達InfiniBand。對於巨頭而言,橫向擴展目前似乎還用不到CPO。博通陳福陽的表態最具代表性:800G可插拔技術於2022年推出,增長周期將持續至2026年;1.6T產品已進入量產,預計增長至少持續到2029年;3.2T技術已完成展示。“未來5-7年,可插拔光模組仍將佔據主導地位,這也是橫向擴展領域的CPO技術尚未被廣泛採用的原因。”Lumentum的袁武鵬進一步細化了2026年的市場結構預測:光連接埠總量將達到6000萬-7000萬個,同比增長接近翻倍。其中800G連接埠約佔55%-60%,1.6T連接埠約佔15%-20%。這一資料表明,即便1.6T技術已經就緒,800G仍將是2026年的絕對主流,行業並未出現“激進躍遷”。Marvell首席營運官Chris Koopmans的觀點進一步強化了這一判斷:“橫向擴展領域的CPO技術最終會到來,但仍需數年時間。在傳輸距離較長、需要互操作的市場中,可插拔產品的採用速度較慢。”他特別指出,客戶已經完成400G產品的軟體認證,當800G產品推出後,從400G向800G的遷移“幾乎是即時完成的”,新部署項目迅速採用了800G解決方案——這正是軟體預認證帶來的生態優勢,也是可插拔架構的核心護城河。Arista也強調,在1.6T速率下,“我們仍然有信心實現低功耗光模組(LPO)的穩定運行;同時,共封裝銅纜(CPO)等技術也在評估之中,這些都是潛在的差異化優勢。率先推出下一代速率產品並快速實現商業化,是我們的核心差異化策略之一。”縱向擴展也不著急?縱向擴展(Scale-up)專注於升級單台伺服器或基於機箱的系統,通過向現有系統增加晶片來提升算力,它曾被視為CPO技術的“第一戰場”,是CPO最有希望應用的場景。但在這個最需要CPO的場景中,量產時間表也被大幅推遲。CPO的急先鋒Marvell收購Celestial AI後給出了新的營收目標:2027年底年化營收達5億美元,2028年底翻倍至10億美元。其解釋道,這一時間表主要基於首款產品和首個客戶的落地情況。Celestial AI帶來的16太位元芯粒產品,其性能是橫向擴展領域最先進1.6T產品的10倍,具有完全不同的外形尺寸、密度、頻寬和技術特性——但即便如此,大規模商業部署仍被推遲至2027-2028年。Astera Labs的Jitendra Mohan給出了更為詳細的時間預判:“隨著系統複雜度提升、資料速率增長,以及客戶希望將縱向擴展領域從1個機櫃擴展到2-4個機櫃,轉向光學技術將成為必然選擇。我們與客戶就這一交匯點展開了深入合作,預計將在2028-2029年實現大規模部署。但光學技術的部署不會一蹴而就,2027年將進行一些測試性部署,為2028年的大規模部署做準備。”為什麼即便是最需要的場景,CPO應用時間表也被推遲?Lumentum的袁武鵬給出了供應鏈視角的解釋:“CPO供應鏈仍相對較新,需要時間來提升產能以支援大規模需求。因此,當前的供應限制並非源於基礎產能不足,而是因為供應鏈尚不成熟,供應商需要時間來適應需求增長。”Credo的CEO Bill Brennan則從產能角度分析:“縱向擴展場景的需求將是現有需求的數倍。我們目前已經在積極擴大產能,而縱向擴展場景將進一步大幅提升產能需求。這需要整個行業的共同努力,我們正在與多個客戶就此展開溝通,並已開始相關工作。”更深層的原因,是各種過渡方案的生命力超出預期。Astera Labs的Mohan坦言:“客戶之所以不願轉向光學,是因為光學技術需要更高的功耗和成本。”而博通則強調:“我們認為CPO是正確的技術方向,但我們不確定這些產品是否會完全部署,因為我們的工程師和行業同行會儘可能通過機櫃內銅纜和可插拔光模組實現縱向擴展,只有當可插拔光模組和銅纜都無法滿足需求時,矽光子技術才會成為必然選擇。”功耗與可靠性:比頻寬更真實的約束條件對於巨頭而言,功耗和可靠性正是他們遲遲不願意全面擁抱CPO的重要原因之一。Credo的Bill Brennan用具體案例闡釋了這一挑戰的嚴重性:xAI原本使用基於雷射的光模組連接18個機櫃的叢集,後來計畫遷移到液冷設施,將機櫃數量從18個壓縮到6個。團隊向Credo提出:“如果你們能生產7米長的線纜,我們就能建構一個‘零中斷’叢集。”因為銅纜解決方案的可靠性眾所周知,是絕對穩定的。“零中斷”這個概唸給了行業巨大啟發。Bill Brennan指出,從那時起,Credo的團隊開始重點攻克可靠性難題,“尤其是針對GPU與第一級交換機(T0)之間的鏈路。我們最近推出的所有產品,其差異化優勢核心都圍繞可靠性展開。”在巨頭看來,互聯技術首先要可靠可控,而非一味追求極限性能;可預測、可診斷、可維護,往往比“理論最優”更重要。Lumentum的袁武鵬在談到ZeroFlap光學解決方案時,詳細闡述了這一理念的技術實現。他指出,甲骨文與xAI一樣面臨鏈路中斷問題,但他們的鏈路長度遠超7米,只能採用基於雷射的光模組。Lumentum的方案核心是:在鏈路中斷髮生前識別潛在風險,並通過主動干預加以緩解。具體而言,Lumentum重新設計了定製化光學DSP,使其能夠在帶內(in-band)通訊——即在傳輸高速資料的同時,實現DSP之間的雙向通訊,傳輸遙測資料。然後將試點軟體進行深度整合,將原始資料轉化為可用的遙測資料;再通過交換機SDK實現與客戶網路的整合。“如今,我們能夠為客戶提供即時、持續的遙測資料,包括訊號強度與接收靈敏度、前置誤位元率、後置技術直方圖等;還能識別靜電放電(ESD)損壞、檢測光纖上的灰塵。這一解決方案遠超傳統雷射光模組的系統級能力。”就目前而言,短距互聯的可靠性上限,依然掌握在銅纜/ AEC手中,CPO並非替代者,其優勢更多來自距離、密度和系統可觀測性。Arista在演講中還提到了功耗這一行業關注的核心問題。“我們產品的功耗通常比同類產品低約25%——當大規模部署產品時,這一優勢將尤為顯著。當前,功耗是行業關注的核心問題之一,低功耗交換機無疑具備很強的市場吸引力。”過度方案,正在“吃掉”CPO的敘事空間值得關注的是,LPO、AEC、ALC等過渡方案也在持續蠶食、分流原本被寄望於CPO的應用空間。越來越多廠商在實踐中形成了一種微妙的共識:現有互聯生態遠未觸及邊界,CPO並非唯一答案,也不是當下的終局。LPO(線性驅動可插拔光模組)被視為一種替代方案。Arista稱,LPO技術“可以說是Arista向行業輸出的前瞻性創新”,其聯合創始人Andy Bechtolsheim提出了這一概念,並推動行業廣泛採用。“目前,800G速率的LPO光模組已實現大規模部署,該技術為客戶帶來了顯著的成本優勢:由於無需數字訊號處理器(DSP),資本支出更低;同時功耗更低,營運支出也相應減少,客戶可以將節省的功耗預算用於部署更多計算裝置。我們有信心在1.6T速率下實現LPO技術的穩定運行。”LPO的邏輯是“去DSP → 降功耗、降成本”,對交換機與光模組廠商來說,這是“架構最佳化”,而非“生態重構”,相對應的,AEC(有源電纜元件)與ALC(有源光纜)的邏輯則是在2–30米這個最密集、最關鍵的互聯區間,提供接近銅纜的可靠性 + 接近光學的頻寬。Credo的Bill Brennan強調,AEC在資料中心的應用場景非常廣泛,“除了多種解決connectivity問題的方案外,無論是後端網路的橫向擴展/縱向擴展交換機機櫃、前端連接,都存在大量超越標準的創新機會。因此,AEC領域將持續湧現更多創新。”他特別指出,Credo的獨特之處在於開創了這個市場,且“必須深入產業鏈各個環節,對產品的每一個方面都承擔責任”——這種端到端掌控能力,構成了難以踰越的競爭壁壘。Marvell推出的“黃金線纜計畫”,正是AEC這一邏輯的延伸。Marvell的Chris Koopmans指出,線纜產品與光模組本質上沒有區別,超大規模客戶希望實現多源供應。“我們的‘黃金線纜計畫’本質上是一個完整的參考設計,向相關企業展示如何打造符合要求的產品。之所以能實現這一點,是因為我們的DSP在PAM4技術方面性能強勁、功能強大,能夠適配各類線纜——我們無需端到端控制和定義整個產品,而這正是客戶想要的。”ALC技術則是另一個重要方向。Credo的Bill Brennan指出,當行業最終需要CPO替代方案時,“我們在ALC中投入的微LED技術將直接應用於近封裝光學(near-package optics),其功耗僅為CPO的1/3,且無需像當前展會上展示的那樣採用複雜的交換機設計。因此,我們認為當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”CPO的現實問題清單綜合多家公司的表態,CPO面臨的挑戰高度一致,且集中在工程與商業層面而非技術可行性。可維護性是最突出的痛點。Lumentum的袁武鵬直言,CPO技術“經過多代演進,其核心目標是降低成本和功耗。目前行業仍在解決可維護性等相關問題,我們相信隨著技術成熟,CPO將得到廣泛應用。”博通的陳福陽更明確指出CPO的三大根本缺陷:“從成本來看,CPO肯定更貴;從可靠性來看,基於雷射的CPO遠不如現有技術;從功耗來看,它也不是當前討論的所有技術中最低的。這些缺陷導致CPO遲遲未能量產。”系統設計複雜度是另一重障礙。Marvell的Chris Koopmans指出,縱向擴展領域所需的光互聯技術是一種完全不同的技術類型,必須直接與千瓦級XPU和交換機共封裝,具有完全不同的外形尺寸、密度、頻寬和技術特性。Astera Labs的Jitendra Mohan補充道,光鏈路由三個元件構成:電積體電路(EIC)、光子積體電路(PIC)和連接器——“連接器是關鍵元件,負責將光子積體電路的光輸出耦合到光纖,目前限制了光學技術的規模化(量產數百萬EIC和PIC相對容易,但可靠地連接光纖等環節面臨挑戰)。”成本結構不確定性困擾著所有參與者。博通的判斷最為直接:“從成本來看,CPO肯定更貴。”這不是便宜的光模組,而是昂貴的系統工程——散熱、供電、測試、維修全部需要重構。除此之外,生態尚未形成,需要交換機、光學、封裝、軟體協同成熟。Lumentum的袁武鵬在談到橫向擴展CPO時指出,“客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”而對於新技術,這種生態成熟度的建立需要多年時間。為什麼超大規模雲廠商不著急?有趣的是,即便是技術最激進、資金最充裕的超大規模雲廠商,對CPO的態度也異常謹慎。Lumentum的袁武鵬給出了一線觀察:“目前,客戶仍然更傾向於依賴現有的供應鏈,因為他們已經建立了高度的信任——知道這些供應商能夠實現產能爬坡,且產品可靠性、質量都有保障,而這種信任需要時間積累。尤其是現在,客戶的機會成本非常高,所有項目都需要即時產能爬坡,他們沒有時間去認證新的供應商。”這透露出了一個行業關鍵矛盾:CPO技術的部署窗口,與超大規模客戶的部署節奏存在根本性錯配。Arista的Hardev Singh在談到雲客戶需求時指出:“二級雲廠商和企業客戶的合作模式略有不同:這些客戶有明確的需求和上市時間要求,他們關心的是‘供應商是否能提供現成的網路解決方案,快速部署並投入使用’。而與超大規模雲廠商的合作則完全不同——他們始終追求前沿技術,傾向於採用尖端創新方案。”但即便是“始終追求前沿技術”的超大規模雲廠商,在面對CPO時也表現出了審慎態度。原因何在?第一,可靠性要求極高,容錯空間為零。Credo的Bill Brennan反覆強調:“在超大規模客戶使用的任何人工智慧系統中,除了XPUs等定製加速器,還包含大量其他元件,因此我們認為以系統形式銷售並對整個系統承擔全部責任是合理的。”而CPO技術一旦出現問題,是“整板級風險”,遠超可插拔光模組的故障隔離能力。第二,維運體系的慣性巨大。Lumentum的袁武鵬指出,所有超大規模雲廠商“都擁有自己的網路團隊”,已經建立了完善的認證、測試、維運流程。Marvell的Chris Koopmans補充道:“客戶的認證周期通常在一年前就已啟動,即使後來推出性能合格的產品,要在多個模組生態系統、多種雷射類型以及所有超大規模客戶要求的特定外形尺寸中完成認證,也需要很長時間。而如今,客戶最關注的首要因素是上市時間。”第三,供應鏈安全優先於技術領先。博通陳福陽在財報會議上強調:“隨著需求增長和創新封裝的需求提升,封裝已成為一項極具技術性的挑戰。建設新加坡工廠的核心目的是部分內部化先進封裝產能——我們認為,基於強勁的需求,內部化封裝不僅能最佳化成本,更能保障供應鏈安全和交付穩定性。”而CPO技術的供應鏈成熟度,遠低於可插拔光模組。第四,架構靈活性需求強烈。Astera Labs的Jitendra Mohan指出:“目前,許多客戶仍在規劃整體架構。如果將所有功能都整合到單片晶片中,客戶現在就必須做出決策。但在行業標準尚未最終確定、另一端的交換機尚未推出的情況下,誰會冒險將所有賭注押在某一種協議上?”而可插拔架構恰恰提供了這種靈活性。Marvell的Chris Koopmans總結道:“歸根結底,我們需要評估每個機會:我們的角色是什麼?客戶是否要求我們這樣做?我們能帶來什麼差異化價值?以及我們在該領域能否獲得可持續的競爭優勢?目前,客戶要求我們專注於PCI Express及其向UALink的轉型——這對我們來說是一個巨大的機會,因此我們的重點在此。”CPO不是偽命題,但現在顯然“被講早了”對於行業而言,CPO更像是互聯體系的“最後一公里”技術,而非下一代架構的默認選項。它解決的是現有技術路徑徹底失效之後的問題,而不是當下迫在眉睫的瓶頸。這一判斷,在博通首席執行長陳福陽的表態中得到了高度概括。他直言:“未來某個時刻,矽光子學將會成為實現高速傳輸的唯一途徑,屆時它的重要性便會凸顯,但我們目前還未到那個階段。只有當可插拔光模組技術也無法滿足需求時,矽光子學才會成為最終的解決方案。這一天終將到來,我們也已做好準備,只是不會很快實現。”換言之,CPO是終極解法之一,但不是當前階段的最優解。因此,在相當長的一段時間內,LPO、AEC、ALC 以及ZR光模組仍將承擔資料中心互聯的主力角色。相比之下,CPO的應用場景將更加收斂——主要集中在極高連接埠密度、極端功耗約束、以及現有架構已經“無解”的特定系統中,而非大規模鋪開。多家廠商給出的技術路線與時間表,也印證了這一判斷。Arista的Hardev Singh明確表示,LPO的演進遠未結束:“我們有信心在1.6T速率下實現LPO技術的穩定運行,目前相關研發工作正在推進中。”Credo首席執行長Bill Brennan則從另一條路徑給出了更具“反直覺”的判斷:“我們在ALC中投入的微LED技術將直接應用於近封裝光學,其功耗僅為CPO的三分之一,且無需複雜的交換機設計。因此,我們認為,當行業最終需要CPO替代方案時,我們的技術路徑將更具優勢。”在時間節點上,行業的判斷也正在逐步收斂:2026年:800G仍佔主導,1.6T開始放量,LPO / AEC持續增長2027年:1.6T成為主流,CPO進入小規模測試與驗證階段2028年及以後:CPO在特定場景(主要是縱向擴展的高密度系統)中開始規模化部署Lumentum的袁武鵬對這一節奏給出了相對激進、但依然謹慎的預測:“到2027–2028年左右,首批採用CPO的客戶中,約有40%–50%的交換機將基於CPO技術。但這一判斷仍存在較大不確定性,客戶也在根據自身業務節奏進行評估。”Astera Labs的Jitendra Mohan則給出了幾乎一致的判斷:“我們預計將在 2028–2029 年實現大規模部署。光學技術的演進不會一蹴而就,2027 年更多是測試性部署,為後續放量做準備。”由此,真正的問題已經不再是“要不要 CPO?”,而是“在什麼條件下,現有方案真的不夠用了?”Marvell光學與互聯業務負責人Chris Koopmans給出了最務實的回答:“歸根結底,客戶在光學技術選擇上存在很大分歧。我們的理念不是強迫客戶接受某一種路徑,而是支援他們的選擇——如果客戶希望將其指定的光子技術與我們的電晶片和封裝方案結合,我們會非常樂意配合。”這或許正是理解當前CPO討論熱度與實際部署節奏錯位的關鍵所在:在PPT裡,CPO非常重要;在機房裡,它並不緊急。行業真正需要的,不是技術可行性證明,而是系統必要性證明。只有當 LPO、AEC、ALC等路徑在功耗、密度、可靠性上同時觸頂,CPO才會從未來選項轉變為當下必需。而從當前幾乎所有行業巨頭的共同表態來看,那個時刻,還沒有到來。 (半導體行業觀察)
電子布供需警報拉響!AI算力競賽催生3000億材料市場,中國國產替代加速突圍
高端電子布的產能擴充速度正被市場需求碾壓,一場由AI算力引發的材料革命悄然到來。“高端產品的需求太消耗產能了。AI的需求增長太快,而短期之內產能出不來。”一位業內上市公司高管如是說。隨著AI伺服器需求爆發式增長,PCB產業鏈上游的高端原材料市場正掀起一波供不應求的漲價潮。石英電子布(Q布)作為AI伺服器提速的關鍵材料,其全球年需求預計已達1100萬米,而台光電子僅一家的備貨計畫就高達上半年月均50-100萬米,下半年進一步提升至150-200萬米。在AI算力硬體競賽的背後,一場關乎材料供應鏈主動權的爭奪戰已經打響。01 行業風向轉變:AI驅動高端電子布需求激增AI正重塑整個PCB產業鏈的價值分配。資料顯示,2025年第一季度全球資料中心乙太網路交換機收入同比激增54.7%。這種增長態勢沿著產業鏈向上傳導,最終作用於高端基材市場。“低端產品還未缺貨,AI相關的缺。”一位產業鏈人士指出。行業的核心矛盾是“低端過剩、高端不足”,這種分化格局使得相關企業業績表現冰火兩重天。以專業生產高性能電子布的宏和科技為例,其今年前三季度淨利潤同比增長近17倍,股價漲幅高達284.79%。高性能電子布的價格也隨需求水漲船高。據披露,低介電一代布價格是普通產品的6倍,二代和Low CTE產品價格仍在持續攀升。全球電子紗巨頭日東紡已在今年6月宣佈自8月1日起旗下玻纖產品價格全面調漲20%。02 技術革新驅動:從普通布到Q布的演進AI算力競賽對硬體傳輸速率提出了更高要求,推動PCB材料從M8向M9升級,其對低介電常數(Low Dk)電子布的需求變得愈發迫切。衡量電子布性能有兩個關鍵指標:介電常數(Dk)和介電損耗(Df)。這兩個數值越低,訊號在電路中傳輸時損失的能量就越少,傳輸速度越快。普通電子布的介電常數在6.0以上,而AI伺服器等高端應用則要求材料的介電常數降到4.6甚至更低。石英纖維布(Q布)作為第三代電子布,以其卓越的性能成為頂級訊號傳輸材料的解決方案。其主要成分是純度超過99.95%的二氧化矽,介電常數可低至3.0以下,介電損耗極小。輝達Rubin架構中,CPX部件(midplane、CPX板、網路卡板)、Rubin Ultra的78層正交背板等關鍵部位已明確將採用Q布。GoogleV8平台也可能考慮類似Rubin CPX的外掛形態以增強推理性能,這部分增量也會使用Q布。03 供應鏈格局生變:國產廠商強勢崛起Q布全球供應鏈高度集中,目前僅旭化成、信越、泰山、菲利華四家能夠供應。其中,大陸兩家企業預計將佔據最大市場份額,其次為旭化成和信越。在巨頭博弈中,國內企業正加速突破技術壁壘。菲利華作為全球僅有的兩家能量產石英纖維的企業之一,已將航空航天級石英纖維技術成功遷移至電子布領域,使其介電常數達到行業領先的2.2-2.3。該公司規劃了5000萬米/年的產能遠景,而當前行業總需求僅為約200萬米/年。菲利華作為全球唯一在石英電子布產業鏈實現從石英砂到織布四個環節全自主可控的企業,具備顯著的垂直一體化優勢。目前全球前20大CCL企業中,已有4家穩定採購菲利華的產品,另有7至8家處於小批次測試階段。中材科技在特種玻纖領域表現突出,其低介電玻纖布已實現量產,石英布也已通過國內外頂尖客戶認證。2025年第一季度,中材科技扣非淨利潤同比激增93.28%,毛利率觸底回升。宏和科技則在超薄、極細等高附加值產品上形成技術優勢,其高性能產品低介電一代、二代和低熱膨脹係數產品供不應求。04 市場前景展望:供需緊張或持續至2027年展望2026年,隨著1.6T速率資料中心交換機起量及輝達Rubin平台發售,AI PCB高頻高速趨勢將進一步明朗,石英電子布有望迎來需求放量元年。據預測,到2027年,僅AI伺服器和網路交換機兩大應用,就將催生出接近3000億元人民幣的特種電子布市場。然而,供給瓶頸依然突出。菲利華預計2026年出貨量可達1000萬米,僅台光一家就將貢獻約40%-50%的份額。 據此測算,僅石英電子布業務就將為菲利華帶來超10億元淨利潤增量。產能擴充面臨多重挑戰。“高端產品的需求太消耗產能了。AI的需求增長太快,而短期之內產能出不來。”一位行業內部人士坦言。 高端電子布的織布機主要依賴日本進口,裝置交貨周期長,進一步限制了產能擴張。認證壁壘同樣構成一道高牆。客戶認證流程通常需要2-3年時間,包括送樣、小批次試產和批次生產三個階段,輝達、台積電等知名企業對供應商的篩選極為嚴格。基於這些制約因素,業內專家預測,這輪高端電子布缺貨潮可能持續到2026年第三季度,到2027年才會陸續有所緩解。05 投資邏輯與風險:聚焦龍頭企業的訂單與產能在AI驅動PCB材料升級的背景下,投資者應聚焦龍頭企業的訂單和產能情況。對於菲利華而言,其關鍵驗證點在於2025年第四季度台系CCL廠30萬米/月訂單的落地情況,以及輝達的認證進度。隨著訂單爆發和產能躍進,菲利華的業績有望實現顯著增長。中材科技雖然估值安全邊際高,但需要觀察其石英布營收佔比是否能超過5%,以及提價傳導能力。 該公司受益於全球龍頭日東紡的價格上漲20%,已靈活調整定價策略,有望實現價格跟漲。風險方面,投資者需警惕產能過剩和技術替代等潛在風險。 若菲利華的產能擴張導致價格鬆動,或其他企業的認證超預期,市場競爭格局可能生變。此外,AI伺服器出貨量不及預期、輝達GPU產品發售節奏放緩等因素也可能影響行業發展速度。隨著AI算力需求不斷攀升,高端材料市場的供需天平正在傾斜。日本日東紡等巨頭已宣佈漲價20%,台光電子等下游廠商則在為Q布做高強度備貨準備。在可預見的未來兩年內,高端電子布的供應緊張狀況仍將持續。對於那些已突破技術壁壘、具備產能先發優勢的國內企業來說,一個歷史性的發展機遇正在眼前。 (吐故納新溫故知新)
摩爾線程重磅發佈:新一代GPU架構“花港”能效提升10倍,系列晶片明年量產上市,推出AI算力筆記本
國產GPU廠商摩爾線程發佈新一代GPU架構"花港",並宣佈基於該架構的系列晶片將於明年量產上市。這是這家"國產GPU第一股"在技術路線上的重要升級,旨在提升本土AI算力供給能力。12月20日,摩爾線程創始人、董事長兼首席執行長張建中在公司首屆MUSA開發者大會上宣佈,基於"花港"架構的華山、廬山系列晶片將於明年量產上市。據介紹,新架構採用全新一代指令集,算力密度提升50%,能效提升10倍,並支援十萬卡以上規模智算叢集。張建中表示,當前大模型推理仍面臨迭代高速化、服務極致化、模型複雜化三大挑戰。為此,"花港"整合了全精度端到端加速技術和新一代非同步程式設計模型,以提升智算叢集的算力利用率。在同場發佈會上,摩爾線程還推出首款AI算力筆記本MTT AIBOOK,搭載自研智能SoC晶片"長江",32GB、1TB版本預售價9999元。新架構性能大幅躍升"花港"架構在計算和圖形性能上實現多項突破。據張建中介紹,該架構採用全新一代指令集,支援非同步程式設計模型和高效的線程同步,算力密度提升50%,能效提升達10倍。基於該架構的"華山"GPU晶片,在浮點算力、訪存頻寬、訪存容量和高速互聯頻寬方面,取得了多項領先甚至超越國際主流晶片的能力。這標誌著國產GPU在高性能計算領域的技術進步。針對圖形渲染場景,基於"花港"的"廬山"高性能圖形渲染晶片,將實現3A遊戲渲染15倍的提升,AI性能提升64倍,光線追蹤性能提升50倍。該晶片除支援遊戲體驗外,還支援所有CAD等圖形設計渲染應用。據介紹,"花港"架構還擁有全新第一代AI生成式渲染架構(AGR)和第二代光線追蹤硬體加速引擎。軟體生態全面升級在硬體架構升級的同時,摩爾線程宣佈自研MUSA架構迎來全端軟體升級。張建中表示,MUSA架構完美支援全功能GPU計算生態,擁有完備的軟體棧和廣泛的生態相容,統一軟體棧覆蓋全系列產品。張建中強調,全功能GPU的創新就是一部算力進化史,"全功能"意味著其能夠計算所有的資料單元和格式。這一能力對於支援日益複雜的AI模型和多樣化的應用場景至關重要。首款AI算力筆記本亮相摩爾線程在大會上發佈了AI算力筆記本MTT AIBOOK,目前已在京東開放預售。該筆記本搭載摩爾線程自主研發的智能SoC晶片"長江",整合高性能全大核CPU和摩爾線程全功能GPU,支援MUSA統一架構,異構AI算力達50TOPS。該筆記本集開發、辦公、娛樂等功能於一體,支援Windows虛擬機器、Linux、Android容器以及所有國產作業系統。32GB記憶體、1TB儲存版本預售價9999元,面向AI開發者和專業使用者市場。 (華爾街見聞)
1.4 兆美元算力帳:OpenAI 還沒獲利,Sam Altman 怎麼付?
一家還沒獲利的公司,準備花掉1.4 兆美元。不是估值,不是估算,而是CEO Sam Altman 親口確認的承諾:我們會在很長一段時間裡,把這筆錢花完。就在最近這一周,OpenAI 動作頻繁:12月18日,推進新一輪融資談判,規模數百億美元、估值7500 億美元;12月16日,ChatGPT 上線全新圖像模型和App 生態平台;同期還發佈了AI 在科學任務上的推理能力評估報告。(Sam Altman 訪談片段: ChatGPT下一步該做什麼?)2025 年12 月19 日,Altman 在新一期播客中回應了外界最大的質疑:一個現金流還沒轉正的公司,憑什麼敢為AI 基礎設施砸下1.4兆?他給了一個出乎意料的答案:如果我們現在有兩倍算力,我們就能賺兩倍的錢。這句話背後,藏著OpenAI 對AI 商業化的全套邏輯:錢怎麼來、怎麼花、何時能獲利。而Altman 這次,把這套邏輯講得異常清楚。第一節|虧損1200億美元,為什麼越花越多?從財報數字來看,OpenAI 確實還在虧損。在訪談中,Sam Altman 承認:我們預計從現在到2028/2029年之間,將會虧損約1,200 億美元。這是什麼規模?作為對比,特斯拉從2003 年成立到2020 年首次實現年度獲利,花了17年時間。 OpenAI 預計4 年虧損1200 億,每年平均虧損300億美元。這是一場前所未有的資本押注。但Altman 並不認為這是問題。他給了一組具體資料:OpenAI 目前每天前沿模型的生成量,大約是10兆個token。這是什麼概念?一本10萬字的書大約是13萬個token,10兆token相當於每天產生7700萬本書的文字量。這個數字還在以每年3 倍的速度成長。每次基礎設施擴容,就能直接換來更高的服務能力、更快的產品上線速度和更強的付費意願。因此,這不是一家沒錢賺的公司,而是一家錢來不及賺的公司。OpenAI 的主要業務收入來自三個部分:ChatGPT 使用者訂閱;企業版API 呼叫;面向大客戶的模型客制化服務。其中最讓Altman 感到興奮的是第二項:API 成長已經超過ChatGPT本身的成長速度,企業客戶正成為OpenAI 的主要收入來源。目前,OpenAI 已擁有超過100 萬家企業使用者,透過API 將模型連接到客服、財務、搜尋、程式設計、資料分析等多個環節。更關鍵的是,這些客戶使用的不是對話,而是一個任務區塊:寫程式碼、產生分析、總結檔案。任務越多,算力消耗越大,收入越高。Altman 舉了個例子:企業員工一小時的工作,可能包括做PPT、寫指令碼、看材料。只要有70%的任務被模型完成,就是實實的降本提效。這就是OpenAI 正在算的帳:不是按人數算訂閱費,而是以任務量算力消耗;不是在意每月續費率,而是專注於每個任務背後提升多少效率。所以,他才會下判斷:訓練支出繼續成長沒關係,重要是推理收入會漲得更快。當然,這套帳也有風險:基礎建設投入已經遠超現階段營收,必須靠資本市場支援持續擴張。但Altman 相信:模型在變得更好,需求變得更大。這是典型的AI 時代獲利模式之一:先投算力,收入隨後成長。第二節|面對競爭,OpenAI的護城河是什麼?算力換收入的邏輯聽起來很美,但前提是OpenAI 必須一直跑在前面。過去一年,從DeepSeek 到Gemini,再到Claude、Mistral、Grok、Qwen,競爭對手接連出現。而OpenAI 的應對是:快速反應,持續推出新品。最近,他們連續推出三項關鍵更新:新影像模型GPT Image 1.5,上線更快,細節更準;ChatGPT開放app提交入口,打造模型版App Store;FrontierScience研究成果上線,AI成為科學家的研究助理。Altman 一直在強調一件事:真正的風險不是模型被超越,而是使用者不用它。這就是他最常說的字:黏性。他提到了幾個例子:有人把血液檢查報告丟給ChatGPT,它讀懂了,提出初步判斷,使用者去醫院確認,發現確實是之前沒查出的病症;有人開始和ChatGPT聊生活、做規劃、定行程,它能記住細節,持續跟進,並提出建議;有人用它解構複雜文件,有人用它做企業報告,有人只讓它早上列個待辦清單。這些行為有個共同點:不是測試模型好不好,而是讓它真正幫你完成任務。當你習慣了ChatGPT 記住你的偏好、理解你的表達方式、知道上次聊到那裡,切換到其他產品的成本就會變得很高。這就是ChatGPT的護城河所在:習慣、一致性和個人經驗所累積的信任感。在企業側,這個護城河變成了另一個維度:個性化能力。第一節講了企業能帶來多少收入,但問題是為什麼他們會留下來?Altman 說:企業需要的不是聰明模型,而是能連結自己資料、完成自己任務、理解自己流程的AI 工具。它可能是客服助手,也可能是法務審查器,甚至是每天早上把管理郵件歸納好再發通知的智慧助理。ChatGPT 企業版的目標,就是讓這些個人化AI 工具運作在一個平台上,連結不同部門、流程和任務。 OpenAI 面向未來建構的真正產品形態:不是大模型,而是企業級AI 入口。而在企業應用這條路上,Google 是最大的威脅。Altman 不否定Google 的實力。他甚至說:如果Google 在2023年一開始就認真對待我們,我們可能就完了。但他也指出了Google的問題:把AI 塞進搜尋框裡,不如重新設計一個AI 優先的入口。他認為,AI 不是功能外掛,而是一種全新的互動方式。你不應該再找某個東西,而應該告訴AI:這是我今天要解決的事。它聽懂了,就去做,不需要你重複輸入指令、點選圖表、切換介面。這不僅是ChatGPT 的方向,也是在定義下一代軟體是什麼。OpenAI 不急著回應每一次跑分。他們關心的是:使用者是否把ChatGPT 當作生活工具;企業是否用它接住任務流程;一家公司是否已經開始圍繞它重建工作流程。技術可以被超越,習慣很難被取代。這,就是Altman 所理解的護城河。第三節|1.4 兆要買什麼?這不是一個隨口報出的數字。在訪談中,Sam Altman 反覆講了幾次:我們計畫在未來很長一段時間內投入約1.4兆美元。前面我們拆解了收入從那裡來,那麼:這筆錢到底花在那裡?1. 這筆用來買什麼?這筆支出大致分為四類:晶片,如NVIDIA的H100、B100或自研方案,用來訓練和運作最先進的模型;資料中心,需要全新建設的AI工廠,不是傳統雲端運算中心,對頻寬、電力和散熱的要求都極高;網絡,連接全球模型推理的骨幹網絡,要確保延遲極低、吞吐極高;能耗,大量GPU同步工作,背後需要穩定且便宜的能源配套。即便如此,Altman 認為仍然不夠:我們的擴張速度已經快到,即使現在就把這些基礎設施建好,也永遠不夠用。2. 為什麼現在就要花?很多人會問,未來五年模型還在變,技術還不穩定,為什麼現在就提早花掉這麼多?Altman 說:不是我們想提早花,而是市場已經等不及了。原因有三:基礎建設周期太長一個資料中心從規劃到投入使用需要2-3年,晶片訂單要提前18個月鎖定,電力配套甚至要提前5年佈局。如果等到需求爆發再建,根本來不及。市場需求正在快速爆發從一年前到現在,OpenAI 的算力擴張了3倍,明年還要再擴3 倍。收入也跟著漲。這是一種算力先行、收入追趕、效率遞增的模式。越早買算力,越早釋放成長。更關鍵的是,競爭對手都在搶同樣的資源NVIDIA的H100、B100供不應求,資料中心的電力配額有限,優質機房更是稀缺。不提前鎖定,別人就搶走了。一句話總結:OpenAI 不是在投資未來,而是在解決現在問題。3. 回本邏輯是什麼?花了1.4兆,成本怎麼變?Altman 的判斷是:未來訓練會越來越省錢,推理也越來越快。OpenAI 的策略是:用一套訓練好的通用模型,支撐多個終端業務。訓練一次,部署多次,推理規模越大,單位成本越低。透過ChatGPT、企業API、代理系統等通道,把token 消耗轉化為真實收入。這是典型的前期重投入、後期低成本模型:先建廠,再接單。Altman 也被問到另一個爭議問題:如果模型進度放緩怎麼辦?他的回答是:「即便模型停在o1-5.2,能做的事情還遠未被挖掘。光是用好現在的模型,就足以支撐一個5000億美金的公司。如果未來模型繼續提升,回本速度只會更高。”在資本上,他認為舉債投資AI 是合理的。 OpenAI 不是靠模型會更強這件事融資,而是現在就能產生的使用量、顧客需求和token消耗。不是靠講故事,而是靠算帳。所以這筆1.4兆,表面是買晶片、買電力,本質是在提前鎖定全球AI算力的供給能力。 在科技巨頭都在爭奪AI 入口的今天,誰能提前建好基礎設施,誰能決定未來的遊戲規則。第四節|ChatGPT 的終極型態是什麼?前三節講的都是錢和算力,但最後要做什麼產品?在大多數人眼中,ChatGPT是個聊天工具。但Altman 每天用它做的,遠不止聊天:安排行程、確定見誰、規劃健身計畫。他說,ChatGPT 已經幫他做了很多他自己都沒注意到的事情。這就是OpenAI 想要的轉變:從被動回答問題的工具,變成主動幫你辦事的助理。這個轉變分三個方向:1 、從記住對話,到記住你的人生第二節提到記憶是使用者黏性的來源,但Altman 認為現在還遠遠不夠。他說:ChatGPT 的記憶能力現在還停留在GPT-2 階段。它能記住一些偏好,能保持上下文,但遠遠達不到真正理解你的水平。下一步呢?未來的AI 不只記住你說過的話,而是瞭解你沒說出口的偏好,懂你長時間的變化,甚至可以主動提醒、提問、跟進。我們對記憶的潛力還完全低估了。就算是人類最頂尖的私人助理,也不可能記住你生活中每一封郵件、每個細節。而AI 可以。2 、從被動回應,到主動處理Altman 對現有AI 互動方式並不滿意。“我不想每天發訊息、等總結、看草稿。我想直接告訴它今天要完成什麼事,能搞定的別來煩我。”這是一種完全不同的使用方式:不是你問我答,而是你交給我辦。為了實現這個目標,OpenAI 正在佈局多條產品線:Code Interpreter可以執行複雜的資料分析任務;AI瀏覽器幫使用者自動讀取網頁、理解內容、產生摘要;Agent原型可以長時間運作、自動喚起其他工具,逐步接管日常事務。關鍵是:你不用時時盯著它。3、不只是螢幕上的對話框在訪談最後,Altman 被問到關於硬體設備的問題。他沒有透露太多細節,但給了一個明確的方向:“我們未來不會只有一個設備,而是多個產品組合。這些產品要能感知你、理解你、主動服務你,而不是等你輸入命令。”這其實就是OpenAI 與硬體團隊(Jony Ive)正在推進的硬體專案。它不一定是手機,不一定有螢幕,但它會主動記錄你說的內容,透過語音或感知理解你的行為,不再讓你像用電腦一樣點開視窗、切換App。現在人們接受了聊天介面是因為它簡單、熟悉,但未來不同類型的任務,AI 應該能自己產生適合的互動方式。例如:你和它討論旅行,它自動展示地圖;你談健康計劃,它產生日曆與飲食建議;你說今天幫我規劃一下,它整合前幾天的對話和習慣,給出主動安排。從記憶、執行、再到硬體,OpenAI 要做的不只是更強的模型,更是改變AI 在人類生活中扮演的角色:從被動回答問題,變成主動協助;從通用工具,變成你的個人化助手;從你使用它,變成它代你做。未來很多人不會再單獨處理任務,而是管理一群AI 幫手。在 Altman 設想裡,ChatGPT 不再只是一個產品,而是能協調其他AI 工具的中樞系統。它會收集指令、分配任務、總結結果、決策提醒。1.4 兆,買的就是這個未來。結語|這筆帳,怎麼付?Sam Altman 給了一套完整的帳本:用算力換收入,用收入涵蓋成本。怎麼做?算力每翻倍,收入就翻倍;透過用戶粘性和個性化,確保持續收入;提前投入基礎設施,確保算力夠用;從聊天工具到AI 作業系統,擴大營收成長空間。1.4 兆聽起來很瘋狂,但拆開看,每一筆都有對應的變現路徑。能不能付得起? OpenAI 用實際成長給了答案:收入確實在跟著算力跑。至於能跑多遠,時間會證明。 (AI深度研究員)
從寒武紀到沐曦,超1.5兆算力軍團,誰是背後隱密捕手?
AI算力上市潮中,誰是幕後最大贏家?這家「獨中四元」的機構,如何用十年完成這場精準伏擊?答案都在這裡。2015年,當深度學習演算法在ImageNet競賽中一鳴驚人時,大多數人看到的是AI應用的曙光,而聯想創投看到的,是一場即將到來的、更為底層的算力革命。十年後,當沐曦股份在科創板上敲響鐘聲,一個完整的拼圖終於呈現:隨著寒武紀、海光資訊、摩爾線程、沐曦這四家AI算力領軍企業全部登陸公開市場,聯想創投作為唯一一家同時重倉四家的投資機構,其長達十年的產業謀局,終於迎來了系統性的收穫期。更值得關注的是,回顧2016年至今在A股上市的科創企業中,市值曾超過5000億的公司僅五家,而聯想創投便捕捉了其中的三家:寧德時代、寒武紀,以及海光資訊。寒武紀、海光訊息,再加上摩爾線程、沐曦股份,僅這四家科創板的AI算力公司的市值總計已經超過1.5兆人民幣(以當前市值計算)。洪荒時代的“冒險者”時間撥回2017年。 AI晶片在中國還停留在實驗室論文和少數巨頭的內部專案。市場上最炙手可熱的是O2O和共享經濟。就在這個時間點,聯想集團提出了「端-邊-雲-網-智」的新IT策略藍圖。在這張藍圖中,聯想創投扮演著「科技瞭望塔」的角色。他們很早就形成了一個核心判斷:智慧世界的萬物生長,都依賴一顆強大的「心臟」——算力。未來的大運算將由應用程式驅動,從雲端的資料中心到邊緣的智慧型設備,對算力的需求將在十年內成長百倍。然而,這顆「心臟」的形態將發生根本性變革:它不再只是中心化、通用化的,而將變得多元化、專屬化,並無所不在。正是基於這超前的產業洞察,聯想創投沒有隨波逐流,而是在AI算力尚處洪荒時代時,便開始了系統性佈局。投資,尤其是早期投資,最忌諱的是盲目類比和追逐風口,獨立思考才是關鍵。2017年,當AI晶片對大多數人而言還是個實驗室概念時,聯想創投集團總裁、管理合夥人賀志強在中國科學院第一次見到了寒武紀創始人陳天石。賀志強回憶,陳天石“話不多,典型的技術天才氣質”,但交流下來發現他兼具商業頭腦。儘管內部對當時寒武紀的估值曾有猶豫,但聯想創投看中了其最根本的價值:它是市場上極少數從底層指令集和晶片架構層面,為人工智慧原生設計的先驅。其MLUarch™架構,為處理AI典型負載提供了更高效率的可能性。於是,聯想創投果斷從A輪(當時估值約45億人民幣)進入,此後連續追加三輪投資,成為陪伴寒武紀穿越周期的重要股東。即便在寒武紀股價一度低迷時,聯想創投也一股未賣,選擇做時間的朋友。在接下來的幾年裡,我們看到了一張清晰的時間表:2018年,寒武紀B輪,繼續加註。2021年,產業轉捩點初現。聯想創投在這一年密集出手:策略性投資海光資訊(當時估值約300億人民幣),投資沐曦A輪(當時估值約40億人民幣),押注摩爾線程A輪(當時估值約45億人民幣)。2025年,在沐曦衝刺上市前,再次參與其C輪融資。「2021年那波投資,在外界看來可能像追風口。」聯想創投曾在內部分享,“但對我們而言,只是邏輯的必然兌現。我們看到了大模型的前夜,看到了從科研到產業對算力需求的質變。”一張「互補」而非「互替」的技術拼圖獨中四元,秘訣不在於押注了同一個賽道的多個選手,而在於構建了一個彼此咬合、功能互補的算力「軍團」。寒武紀是「特種部隊」 。它的思元(MLU)晶片如同為AI計算量身定製的精密儀器,在智能處理效率和能效比上追求極致。當通用GPU因其龐大而複雜的圖形遺留架構顯得有些「笨重」時,寒武紀的專用路徑在特定場景下展現出尖銳的一面。寒武紀思元370海光資訊則是「主力軍團」 。它選擇了一條務實且生態友善的路徑:其CPU相容於龐大的x86軟體世界,讓企業遷移成本降至最低;而其深度運算處理器(DCU),則致力於為現有的高效能運算應用提供平穩的「遷徙之舟」。它解決的是“可用”到“好用” 的平滑過渡問題。最有趣的佈局在GPU領域。聯想創投在這裡下了「雙軌注」。摩爾線程要做的是“全功能GPU” 。其「MUSA」統一架構的野心,是同時駕馭圖形渲染、視訊處理、科學計算和AI訓練。它的產品從遊戲顯示卡延伸到資料中心運算卡,旨在打造一個從個人體驗到企業應用的完整國產GPU生態。它更像一個「多面手」。2022年3月30日,摩爾線程發布第一代MUSA架構GPU而沐曦,則是不折不扣的「攻堅者」。它聚焦一點:面向資料中心與高效能運算,打造純粹為AI訓練與推理優化的高效能GPU。其自主研發的XCORE架構,一切設計都指向一個目標:更高的算力密度和更優的能效比。它是為攻克最嚴峻的計算堡壘而生的「精銳武器」。在2025世界人工智慧大會上,沐曦正式發布了基於國產供應鏈的旗艦GPU曦雲端C600“投資不是選冠軍,而是組建一支最好的球隊。”一位科技產業分析師如此評價,“聯想創投的這四筆投資,就像組建了一支擁有頂級前鋒、中場、後衛和門將的球隊。他們各司其職,共同應對未來算力戰場複雜多變的挑戰。”事實上,聯想創投在AI算力領域的視野遠不止這四家明星企業。過去十年來,其投資版圖早已延伸至更廣泛的算力邊疆,形成了一個更龐大的支撐網。例如,他們投資了專注於高階通用CPU的此芯科技,佈局了推動算力普惠化的AI編譯與平台公司無問芯穹,以及探索存算一體等顛覆性架構的後摩智能等。這些投資與四家領導企業一同,構成了一個從底層晶片、到核心加速器、再到上層軟體與解決方案的立體化算力投資矩陣。這張矩陣的搭建並非一蹴而就,它源自於長期堅持的產業研究,以及一個堅定的信念:未來的智慧世界,需要的是一個多元化、專屬化、能靈活組合的算力工具箱。聯想創投所做的,正是在產業爆發前夜,就提前為這個工具箱收集並打磨好了最關鍵的那幾件「王牌工具」。CVC的「雙向賦能」魔法如果故事止於精準的投資眼光,那這只是一個優秀的財務投資案例。聯想創投作為聯想集團旗下的全球科技產業基金(CVC),其真正的魔法在於「雙向賦能」。想像這個場景: 一家新創晶片公司,設計出世界級的晶片,但面臨的是「雞生蛋還是蛋生雞」的困境:沒有大規模應用,就無法迭代優化;沒有優化,就難獲客戶青睞。聯想創投,恰好能打破這個僵局。以寒武紀為例,其AI晶片從實驗室樣片到穩定可靠的商用產品,需要經歷嚴苛的工程化與場景驗證。聯想將其成功整合到自家伺服器中,在真實的智慧城市交通流分析、醫院醫療影像篩檢等複雜場景中長期運作。這種來自第一線客戶的、高強度的回饋循環,對於一家晶片新創公司優化其設計、驅動其迭代而言,價值遠超過一筆孤立的訂單。同樣,海光資訊的CPU和DCU產品,被應用於聯想多類高效能運算叢集方案中,去處理天文物理模擬、量化金融建模等世界級的算力難題。這種在最嚴苛環境下的“實戰測試”,是金錢難以購買的信任票。在最炙手可熱的GPU領域,綜效則展現得更為立體。摩爾線程的全功能GPU,透過與聯想高端遊戲本和工作站的深度適配與聯合調優,得以在真實的創意生產(如8K視頻渲染)和娛樂場景中證明自己的相容性與性能,這為其切入更廣闊的消費與商用市場鋪平了道路。而聯想與沐曦的合作則更進一步,直接瞄準了當下最迫切的企業級需求——雙方聯合推出了「DeepSeek國產AI一體機」解決方案。這台設備將沐曦的高效能GPU、聯想可靠的伺服器硬體,以及優化過的大模型軟體棧深度融合,打包成一個開箱即用的算力產品,直接交付給那些渴望部署私有化大模型卻又缺乏技術整合能力的企業客戶。這標誌著協同從「零件供應」升級到了「聯合定義產品、共創解決方案」 的新層次。這一切協同的最終成果,是一個典型的「1+1>2」的生態共贏。對於被投資企業而言,它們縮短了充滿不確定性的市場驗證期,並藉助聯想的全球資源加速實現了技術的規模化落地。對聯想集團而言,這些最前沿的算力技術則源源不斷地反哺其從「端」到「雲」的全端產品線,使其在AI時代保持了底層技術的競爭力和解決方案的主動權。實際上,這早已經超越了簡單的投資關係。聯想創投帶來的不僅是商業機會,更是從產品定義階段就開始的共同研發,以及基於大量客戶回饋的快速迭代通道。望向更遠的“地平線”集齊四張「王牌」的聯想創投,並沒有停下腳步。他們的投資版圖,已悄悄延伸至可能在未來十年顛覆遊戲規則的下一代運算範式。這支探索艦隊的航向是多元的,但目標一致:突破經典「馮諾依曼體系」的固有瓶頸。其中,量子運算被視為可能帶來指數級算力飛躍的「革命性變數」。聯想創投在此領域佈局瞭如華翊量子、圖靈量子等公司,前者專注於離子阱技術路徑,後者探索光量子計算等多元方案。儘管商用化道路漫長,但提前卡位意味著在「第二曲線」上擁有理解與話語權。而在現有的半導體生態中,一場以開放、靈活為旗幟的架構變革正在發生,這就是RISC-V。聯想創投投資了進迭時空等專注於RISC-V架構高效能CPU研發的企業。這條路徑的意義在於,它試圖在確保性能領先的同時,構建一個從底層指令集開始就更開源的計算底座,為未來的算力基礎設施提供一種全新的、不受傳統生態束縛的選擇。投資清程極智這類企業,則意味著聯想創投正在關注那些從根本上重構計算邏輯的可能性。這些技術目前大多處於實驗室轉化為產業的早期,風險極高,但其顛覆性潛力也同樣巨大。這些看似分散的前瞻性投資,共同勾勒出聯想創投對未來運算技術的全景思考。從十年前在會議室勾勒算力革命的藍圖,到如今四家被投企業齊聚科創板,聯想創投完成了一次典型的「產業CVC」 的長跑示範。透過聯想創投,我們可以見到,在硬科技投資這場需要極度耐心與定力的馬拉松中,最大的獎勵不僅屬於能預見風口的人,更屬於那些能紮根產業、建構生態、並與創新者並肩跨越從技術到市場「死亡之谷」的長期夥伴。而這場關於算力的故事,才剛翻開下一篇章。 (創業邦)
中國算力的開放時刻:超節點邁入萬卡紀元
日前,在崑山的人工智慧創新大會(HAIC 2025)上,中科曙光展示了首個中國萬卡級AI超叢集-scaleX 萬卡超節點真機。這是中國AI算力史上的一個標誌性時刻,超節點真正意義上邁入萬卡紀元。Scale X萬卡超級群的落地,不僅是一次超節點技術的權利交接,更是中國AI算力基礎設施在發展路徑上給出的新答案。超節點之始三年前,國內的AI 算力體系基本上都得靠輝達,不管是GPU 加速卡、NVLink 高速互聯技術,還是CUDA 軟體棧,都是NV的東西。這套方案幾乎成了行業默認標準,也讓整個產業鏈對這一家供應商的依賴越來越明顯。轉折點就出在輝達晶片的出口限制上。高階GPU 一缺貨,再加上CUDA 生態不對外開放、NVLink 技術也不給授權,國內廠商這下不得不琢磨一個現實問題:要是沒了輝達,我們自己能搭起什麼樣的算力體系?最先給出答案的是華為,它走了一條「全端自研」 的路,從底層晶片、互聯技術,到上層框架軟件,全都是自己研發的。後來橫空出世的384 超節點,也延續了這種縱向一體化的思路,晶片、通訊協議、操作系統和框架生態全是自研。靠著系統層面的高度一致性,它的效能相當能打:通訊延遲只有2.1 微秒,單機櫃算力達到300PFlops,PUE 還能穩定在1.1 左右。單看這些參數,確實能和輝達掰手腕。不過和輝達一樣,華為也選擇了「封閉自洽」 的路線。這種模式雖然能把資源效率拉滿,技術把控力也強,但短板也很突出:生態相容性比較受限,整個產業的協同推進速度也會慢一些。走向岔路口在全球AI 算力領域,超節點被視為下一代智慧計算的核心單元。它可以把幾十、幾百甚至上萬張AI 加速卡,整合為一個統一的邏輯節點,將通訊時延壓縮到微秒等級,以此突破傳統算力叢集的通訊瓶頸。這樣的技術優勢,也吸引了許多行業巨頭入局佈局。 2025 年下半年,阿里、浪潮、曙光就先後推出了各自的超節點產品。這三家廠商選擇的技術路線,和華為有所不同。它們以「開放架構」 為核心,走出了一條全新的道路,致力於打造屬於中國的AI 算力底層基礎。其中,發佈時間相對較早的浪潮“元腦SD200” 和阿里“磐久128”,共同搭建起了國產開放架構體系的雛形。浪潮這款產品主打多品牌GPU 異構計算,還創下了8.9 毫秒生成token 的亮眼紀錄;阿里的產品則依靠開放協議整合不同互聯標準,成功搭建出「雲超節點」。而中科曙光在HAIC 大會上推出的scaleX 萬卡超節點真機,也是備受矚目。此系統由16 個scaleX640 超節點互聯組成,總共部署了10240 張AI 加速卡,總算力突破5EFlops。它搭載的自研scaleFabric 高速網絡,帶寬能達到400Gb/s,端側延遲不到1 微秒。同時,曙光採用浸沒相變液冷技術,將單機櫃的PUE 壓低至1.04,堪稱名副其實的算力巨獸。更關鍵的是,這款產品不繫結任何單一晶片廠商。 scaleX640 能夠相容於寒武紀、壁仞、登臨等多個品牌的加速卡,並且已經適配了400 多個主流大模型和AI 框架。這也意味著,中國的AI 算力真正具備了「多晶片共存」 的能力,實現了算力生態的多元化發展。去輝達化隨著國產算力廠商的集體突破,「去輝達化」 早已不是一句口號,而是中國保障算力安全、推進自主創新的共同需求。從2023 年起,美國多次收緊對華高性能GPU 的出口限制,A100、H100 等主力型號相繼被列入管控清單,輝達的超節點NVL72 也是在限制之內。儘管近期美國政府對部分型號的限售政策略有鬆動,但覆蓋範圍也僅限於H 系列。再加上先前有消息指出輝達晶片可能存在安全後門,相關的安全風險進一步凸顯。這一系列變化,倒逼中國AI 產業加速尋找替代方案。但我們的核心目標,不是簡單再造一個類似輝達的企業,而是要搭建一套具備可替代性的完整算力生態系統。目前來看,國內已經湧現出兩套頗具代表性的發展路徑:一條是走封閉全棧的縱向整合路線,以華為昇騰為典型代表;另一條則是主打開放協同,像曙光、浪潮、阿里這些企業都在這條賽道上發力。在落地應用層面,各家的產品也已嶄露頭角。華為的CM384已經發貨很多套,在貴州的數據中心正常使用運營;浪潮的SD200 已經在多個模型推理平台實現商用,成為DeepSeek 與Kimi 等大模型的重要算力支撐;阿里的磐久128 在雲端搭建起大規模叢集,承擔起多模型協作的基礎設施角色;更是已經落地上海、杭州等地的智算中心,也被納入國家級算力調度工程的採購清單。更值得關注的是,開放路線的推進,也帶動了國產晶片的大規模落地應用。曙光的scaleX 體系已經完成了對壁仞BR 系列、登臨、寒武紀MLU 等多款國產加速卡的適配,浪潮和阿里也在為本土GPU 提前預置驅動環境。這意味著,國內的算力基礎設施不再依附於單一的輝達生態,轉而形成了以中國廠商為核心的開放式協作系統。“過去幾年大家都在埋頭造芯,現在終於有地方能讓這些晶片真正跑起來了。” 一位業內人士這樣感慨,“這其實比單純拿到訂單更有價值,它標誌著中國AI 算力體系開始具備自我造血的能力。”2025 年,堪稱中國AI 算力體系發展的「拐點之年」。封閉路線憑藉其技術優勢,佔據著性能高地,代表著極致的算力表現與可靠的可控性,在特定場景中具備不可替代的價值;開放路線則貼合產業發展的現實需求,有力推動了算力普惠與生態繁榮,為行業帶來了更多可能性。國內算力產業的發展邏輯也在悄悄轉變:不再是單一維度的表現比拚,而是更注重不同晶片的高效協同;不再是不同體系間的孤立較量,而是趨向於多元生態下的共生共贏。中國AI 算力的未來,很可能就藏在這兩條路線的共存與平衡之中,被重新書寫與定義。 (傅立葉的貓)
AI算力“逃離地球”?Google宣佈“追日者”計畫,2027年擬在太空部署AI資料中心
Google提出“太空資料中心”設想,試圖以太陽能驅動的衛星叢集緩解AI算力與能源瓶頸。但高昂成本、維護困難、軌道碰撞與監管缺失構成重大挑戰。在微軟水下項目受挫後,這一計畫更像對AI無限擴張的激進押注。Google正在嘗試一項突破性的基礎設施實驗,計畫將高能耗的AI資料中心轉移至太空,以應對地面電力短缺和規劃受阻的瓶頸。據英國《金融時報》17日報導,Google披露了名為“Project Suncatcher”的計畫,旨在建構一個由太陽能驅動的太空資料中心原型。該項目並不是建立一個單一的軌道巨石,而是由81顆搭載AI晶片的衛星組成的叢集,它們將在太空中協同飛行並處理資料。作為該計畫的第一步,Google將與衛星公司Planet合作,預計於2027年向近地軌道發射兩顆原型衛星。此舉的核心邏輯在於利用太空獨特的環境優勢——特別是太陽同步軌道提供的近乎恆定的太陽能,以及免除在地面建設所需的土地和水資源。對於投資者而言,這釋放了一個明確的訊號:儘管面臨物理世界的限制,科技行業仍試圖證明AI具備無限的可擴展性。如果Gemini等AI模型的查詢能夠在太空中處理並將結果傳回地球,將徹底改變算力基礎設施的成本結構與能源依賴。然而,這一宏大構想正面臨嚴峻的技術可行性與經濟性拷問。在微軟此前結束其海底資料中心項目(Project Natick)後,業界對極端環境下資料中心的維護難度與成本效益持謹慎態度。除了高昂的發射與維護成本,太空環境的輻射、碎片撞擊風險以及日益擁擠的軌道交通,都為這一“上天”計畫的前景蒙上了陰影。01 逃離地球:Google的“追日”計畫根據Google研究人員上個月發佈的預印本論文,Project Suncatcher設想在距離地球約650公里的太陽同步軌道上運行。該軌道能夠確保通過衛星搭載的太陽能電池板獲得近乎不間斷的電力供應,從而為高能耗的AI負載提供動力。與傳統地面資料中心不同,這一架構依賴於衛星群的協同工作。這些衛星不僅要處理計算任務,還需要在高速飛行中保持通訊。這一方案旨在規避地面資料中心面臨的諸多障礙,包括日益複雜的規劃審批程序、當地社區的反對,以及現有電網無法滿足AI極速擴張帶來的巨大能源缺口。據行業估算,AI所創造的能源需求已難以在地球現有的資源邊界內得到滿足。02 太空雷區:擁擠軌道的碰撞風險與技術挑戰儘管太空提供了無限的能源潛力,但其技術風險不容忽視。密歇根大學空間科學家Mojtaba Akhavan-Tafti指出,Google計畫使用的軌道也是近地軌道中最為擁擠的路徑之一。為了實現互聯互通,這些衛星之間的間距僅為100米至200米。Mojtaba Akhavan-Tafti警告稱,在如此近的距離下,軌道導航的誤差容限幾乎為零。一旦發生單次撞擊,不僅可能摧毀一顆衛星,還可能引發連鎖反應,導致整個衛星叢集毀滅,並向本已是“雷區”的軌道散佈數百萬塊碎片。歐洲航天局資料顯示,目前軌道上已有超過120萬塊尺寸超過1釐米的碎片,任何一塊都可能造成災難性破壞。隨著軌道交通激增,“凱斯勒效應”(Kessler effect)——即碎片引發連鎖碰撞導致軌道無法使用——的可能性正在上升。此外,Google的論文也承認,太空輻射會降解電子裝置並破壞資料。更為棘手的是,與地面設施不同,太空資料中心幾乎無法進行遠端硬體維護,如何處理故障硬體或報廢衛星仍是未解難題。03 微軟水下項目折戟與高昂的“上天” 成本在Google之前,微軟也曾探索過利用非常規環境解決資料中心散熱和能耗問題。2018年,微軟在蘇格蘭海岸沉入了一個名為Project Natick的水下資料中心。然而,據報導該項目已經結束,微軟且表示沒有進一步的海底計畫。相比於海底,在太空中建立資料中心的難度呈指數級增加。儘管火箭發射成本正在通過SpaceX等公司的努力不斷降低,但在這一階段,太空電力的單位成本與地面電力相比大致相當,並無顯著的成本優勢。當被問及具體置評時,Google方面僅引用了相關的預印本論文及部落格文章。04 科技巨頭的太空圈地運動?除了技術和成本障礙,該項目還引發了關於太空治理的擔憂。天文學家擔心,更多的衛星星座將進一步干擾科學觀測。目前地球周圍已有近1.6萬顆衛星在運行,其中近9000顆屬於馬斯克的Starlink網路,且還有1.5萬顆新衛星的計畫正在接受審查。Starlink已因反射光線干擾光學圖像以及無線電洩漏干擾射電天文學而受到詬病。目前的太空領域正逐漸成為Jeff Bezos和馬斯克等科技巨頭缺乏規則約束的競技場。Google的這一計畫不僅可能加劇光污染和無線電干擾,還暴露了針對太空這一公共資源的有效治理機制的缺失。對於市場而言,這既是一次展示AI無限潛力的豪賭,也是該行業在能源焦慮下“過度擴張”的隱喻。 (硬AI)
八國圍堵,一場科技自立的“新長征”
日前,美國拉攏日本、韓國,加上歐洲幾個核心盟友,共8個國家,簽署了一份“對抗中國AI聯合聲明”。這事的性質極為惡劣。如果說以前是美國一家“單挑”,現在則是直接拉起了群架。然而,就在這道鐵幕落下的同時,美國卻反常地批准輝達向中國出售H200晶片。不少人的第一反應是:“美國是不是因為輝達業績壓力大,所以認慫了?”錯了。在“8國聯合圍堵”的大背景下,H200的放行絕非美國的仁慈,而是一套精心設計的“組合拳”:妄圖一邊用“八國聯盟”斬斷你的造血能力(生產),一邊用“H200”鎖死你的依賴習慣(生態)。01 從“技術封鎖”到“全產業鏈絞殺”這次8國《聯合聲明》最狠毒的地方,不在於美國,而在於日韓和澳大利亞、新加坡、荷蘭、英國、以色列和阿聯等八個國家的深度介入。這次不僅僅是稀土聯合抵抗中國,還是一個分工明確的AI科技“全產業鏈絞殺局”:日本(材料端): 半導體材料之王。高端光刻膠、電子級清洗液,全球市場佔比極高。韓國(儲存端): HBM(高頻寬記憶體)的霸主。現在的AI晶片,算力再強,沒有HBM配合就是廢鐵一塊。荷蘭及歐洲(裝置端): 掌握著光刻機這一“工業皇冠上的明珠”。以前,我們還能利用這些國家與美國的利益分歧,搞搞平衡,買點裝置。現在8國抱團,意味著中國試圖從外部獲取先進製造能力的路徑,可能基本被堵死了。他們的目標很清晰:在物理層面,把中國本土的晶片製造能力,永久鎖定在落後兩代的水平。02 H200是一顆“劇毒糖果”既然要圍堵,為什麼還要賣H200?這半年的教訓讓美國人看懂了一件事:全面封鎖,只會倒逼中國成功。此前中國大廠買不到輝達,只能硬著頭皮買華為昇騰,買國產卡。結果呢?逼著中國廠商把那套原本很難用的國產軟體生態,硬生生地給磨合出來了。美國人一看,壞了!原本想餓死中國AI,結果反而逼出了一個能打的對手。所以,現在的策略變了,這是一招“抽梯子”的損招:斷你生產:我聯合8國,把造晶片的裝置和材料斷了,把中國自主製造的難度拉到滿級;毀你生態: 我把目前最好用的H200送還給你,雖然貴點,但比你自己造的好用。一旦你吃下了這顆毒糖果,中國本土晶片尚在襁褓中的生態,就可能會受到沉重打擊。03 爭奪科技發展的“定義權”現在的世界地緣格局,是從“全球化分工”變成了“陣營化切割”。美國拉著日韓搞8國聯盟,妄圖在AI算力、半導體裝置、高端材料這三個核心維度,對中國實施徹底的“物理隔絕”。其本質,是要把全球科技市場切割成兩半:“美國+盟友圈” 和 “中國圈”。在這個邏輯下,H200的出售,並不是美國想和你做生意,而是它試圖用技術優勢,繼續在這個分裂的世界裡,保留對中國科技發展的“定義權”。他們希望看到的局面是:中國負責: 出資料、出應用場景、出電費、做低端應用。西方負責: 掌握底層的硬科技、控制算力霸權、收取高額“技術租金”。這就像當年的殖民經濟:宗主國傾銷工業品,殖民地只負責提供原材料。如果你接受了H200,你就接受了成為“AI時代的殖民地”。更致命的是供應鏈安全。在8國對抗中國的背景下,把國家的AI基礎設施建立在輝達的晶片上,無異於沙灘築樓。川普或者下一任總統,心情不好隨時可以斷供,甚至利用晶片裡的後門遠端鎖死算力。到時候,咱們的資料中心就是一堆廢銅爛鐵。04 大廠的艱難選擇和考驗黃仁勳相信:只要美國稍微鬆開一點口子,大量中國的訂單就會瞬間流回輝達。因為作為商業公司,追求利潤最大化和效率極致化是其生存的本能,這無可厚非。但這也正是我們最擔憂的軟肋:特別是對於字節、阿里、騰訊這些商業大廠來說,這不僅是一道選擇題,更是一場“長考”:選國產卡:這意味著巨大的沉沒成本,算力暫時只有H200的60%。選H200:簡直太誘人了。插上就能用,CUDA生態無縫銜接,業務效率立馬起飛,競爭優勢瞬間拉滿。但這正是對手最陰險的“陽謀”。我們一旦動搖而拋棄國產,將面臨可怕的後果:國產晶片廠商剛拿到的訂單可能會枯竭,資金鏈斷裂;剛建立的使用者反饋機制可能會中斷,工程師不再為國產架構找Bug,晶片迭代失去方向;剛聚起來的開發者生態會可能後續無力,由於缺乏應用場景,人才將再次流失。結論很殘酷,但我們必須看清:晶片不僅是造出來的,更是“用”出來的,這是我們的優勢。所以,我們不能退步,不能拋棄國產,否則國產晶片好不容易燃起的星星之火,將被我們自己親手掐滅。寫在最後:面對H200技術性能的“誘惑”和所謂8國聯盟的“圍剿”,我們需要做的不是恐慌,當然也不能抱有任何僥倖的幻想。中方目前對解禁H200的“冷處理”,以及監管層對相關產業鏈的審慎佈局,恰恰是一種極度清醒的戰略定力。我們必須參透一個殘酷的底層邏輯:買來的現代化,是守不住的空中樓閣;跪著求來的繁榮,是必然帶毒的慢性藥。在8國“鐵幕”已然落下的今天,我們早已沒有退路。我們要珍惜每一塊艱難生產出來的國產晶片:那怕它現在算力還不夠強、發熱還比較大、適配還需改程式碼,但它不僅僅是工業品,更是屬於我們自己的“爭氣芯”。使用它、打磨它、迭代它,是我們這一代人的責任。我們早就看到了這一天,科技自立就是:一場不得不走的“新長征”,也是我們維護國家尊嚴與發展權利的護城河。唯有把關鍵技術掌握在自己手中,我們才能在談判桌上挺直腰桿,才能把“卡脖子”的清單,變成激勵我們前行的“軍令狀”。 (金百臨財富通)